Telegram Group & Telegram Channel
🤖 AlexNet: butun AI tarixini o'zgartirgan model

Avvalgi postlarimdan birida ResNet haqida gaplashgandik: bu neyron tarmoqlarni chuqurroq qilishga yordam beradigan usul edi. Bugun esa AI tarixida Computer Vision (CV) yo'nalishida revolyutsiya qilgan model haqida gaplashamiz, ya'ni AlexNet haqida.

Hozir hamma AI modellar aksariyati neyron tarmoqlariga asoslangan arxitekturalar ustiga qurilgan. Ko'proq ma'lumot bersangiz, kuchliroq ishlaydi. Lekin, 1990-2010 yillar orasida neyron tarmoqlari boshqa Machine Learning (ML) algoritmlaridan yaxshiroq emas edi 🤧, masalan kernel regression, SVM, AdaBoost, va hokazo. Xususan, CV uchun olimlar ko'pincha qo'lda features tayyorlashar edi: SIFT, SURF, HoG va shunga o'xshash. Feature'larni to'g'ridan to'g'ri avtomatik ravishda ma'lumotdan o'rganish g'oyasi uncha tadqiqotchilar jamiyati orasida keng tarqalmagan edi.

2011-yilda Geoffrey Hinton (menimcha kimligini yaxshi bilsangiz kerak) o'z hamkasblariga shunday murojat bilan chiqdi: "Sizlarni neyron tarmoqlari kelajak ekaniga ishontirishim uchun nima qilishim kerak". Shunda uning tanishlaridan biri ImageNet deb nomlangan rasmlar to'plamini tavsiya qiladi.

📸 ImageNet Stanford Professori Fei-Fei Li boshchiligida 2007-yildan boshlab 14 mln'dan ortiq rasm yig'ib kelar edi, va 22 mingta kategoriyalarga tartiblagan, va bu dataset neyron tarmoqga asoslangan CV modellarni o'rgatishga juda zo'r massiv dataset bo'lgan.

Ilya Sutskever (OpenAI asoschilaridan biri) va Alex Krijevskiy (AlexNet'ning muallifi) Geoffrey Hinton qo'l ostida PhD studentlar bo'lib o'qishar edi. Krijevskiy kichik modellarni CIFAR-10 dataset'ida o'qitish uchun cuda-convnet kutubhonasini yozgan edi. Sutskever Alex'ning GPU programming bo'yicha kuchliligini bilib, uni ImageNet yourdamida kattaroq model o'qitishga ishontiradi. Shunday qilib, Krijevskiy ko'p GPU mashg'ulotlari uchun `cuda-convnet`-ni kengaytiradi. AlexNet 2 ta Nvidia GTX 580 da o'zining ota-onasining uyidagi yotoqxonasida o'qitilgan.

2012 yil davomida Krijevskiy tarmoqda giperparametrlarni optimallashtirishni amalga oshiradi, va u o'sha yilning oxirida ImageNet tanlovida g'olib chiqadi. Hinton shunday izoh beradi: "Ilya biz buni qilishimiz kerak deb o'yladi, Alex buni amalga oshirdi va men Nobel mukofotini oldim".😊

2012-yilda CV bo'yicha ECCV konferentsiyasida AlexNet g'alabasidan so'ng tadqiqotchi Yann LeKun modelni “bu CV tarixidagi aniq burilish nuqtasi” deb ta'riflaydi.🤩

AlexNetning 2012-yildagi muvaffaqiyati oldingi o'n yil ichida yetuk bo'lgan uchta narsani birlashgani bilan amalga oshdi:
1. Katta miqyosdagi ma'lumotlar to'plamlari
2. Umumiy maqsadli GPU hisoblashlari (GPGPU), ya'ni Nvidia CUDA tehnologiyasi.
3. Chuqur neyron tarmoqlar uchun takomillashtirilgan o'qitish usullari.

O'n yildan ko'proq vaqt o'tgach, uning ahamiyati haqida fikr yuritar ekan, Fei-Fei Li 2024-yildagi intervyusida shunday deydi: "O'sha lahza sun'iy intellekt dunyosi uchun juda ramziy edi, chunki zamonaviy AI'ning uchta asosiy elementi birinchi marta birlashgan". 🥳

@kilich_bek_blog
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/Conordevs_Blogs/332
Create:
Last Update:

🤖 AlexNet: butun AI tarixini o'zgartirgan model

Avvalgi postlarimdan birida ResNet haqida gaplashgandik: bu neyron tarmoqlarni chuqurroq qilishga yordam beradigan usul edi. Bugun esa AI tarixida Computer Vision (CV) yo'nalishida revolyutsiya qilgan model haqida gaplashamiz, ya'ni AlexNet haqida.

Hozir hamma AI modellar aksariyati neyron tarmoqlariga asoslangan arxitekturalar ustiga qurilgan. Ko'proq ma'lumot bersangiz, kuchliroq ishlaydi. Lekin, 1990-2010 yillar orasida neyron tarmoqlari boshqa Machine Learning (ML) algoritmlaridan yaxshiroq emas edi 🤧, masalan kernel regression, SVM, AdaBoost, va hokazo. Xususan, CV uchun olimlar ko'pincha qo'lda features tayyorlashar edi: SIFT, SURF, HoG va shunga o'xshash. Feature'larni to'g'ridan to'g'ri avtomatik ravishda ma'lumotdan o'rganish g'oyasi uncha tadqiqotchilar jamiyati orasida keng tarqalmagan edi.

2011-yilda Geoffrey Hinton (menimcha kimligini yaxshi bilsangiz kerak) o'z hamkasblariga shunday murojat bilan chiqdi: "Sizlarni neyron tarmoqlari kelajak ekaniga ishontirishim uchun nima qilishim kerak". Shunda uning tanishlaridan biri ImageNet deb nomlangan rasmlar to'plamini tavsiya qiladi.

📸 ImageNet Stanford Professori Fei-Fei Li boshchiligida 2007-yildan boshlab 14 mln'dan ortiq rasm yig'ib kelar edi, va 22 mingta kategoriyalarga tartiblagan, va bu dataset neyron tarmoqga asoslangan CV modellarni o'rgatishga juda zo'r massiv dataset bo'lgan.

Ilya Sutskever (OpenAI asoschilaridan biri) va Alex Krijevskiy (AlexNet'ning muallifi) Geoffrey Hinton qo'l ostida PhD studentlar bo'lib o'qishar edi. Krijevskiy kichik modellarni CIFAR-10 dataset'ida o'qitish uchun cuda-convnet kutubhonasini yozgan edi. Sutskever Alex'ning GPU programming bo'yicha kuchliligini bilib, uni ImageNet yourdamida kattaroq model o'qitishga ishontiradi. Shunday qilib, Krijevskiy ko'p GPU mashg'ulotlari uchun `cuda-convnet`-ni kengaytiradi. AlexNet 2 ta Nvidia GTX 580 da o'zining ota-onasining uyidagi yotoqxonasida o'qitilgan.

2012 yil davomida Krijevskiy tarmoqda giperparametrlarni optimallashtirishni amalga oshiradi, va u o'sha yilning oxirida ImageNet tanlovida g'olib chiqadi. Hinton shunday izoh beradi: "Ilya biz buni qilishimiz kerak deb o'yladi, Alex buni amalga oshirdi va men Nobel mukofotini oldim".😊

2012-yilda CV bo'yicha ECCV konferentsiyasida AlexNet g'alabasidan so'ng tadqiqotchi Yann LeKun modelni “bu CV tarixidagi aniq burilish nuqtasi” deb ta'riflaydi.🤩

AlexNetning 2012-yildagi muvaffaqiyati oldingi o'n yil ichida yetuk bo'lgan uchta narsani birlashgani bilan amalga oshdi:
1. Katta miqyosdagi ma'lumotlar to'plamlari
2. Umumiy maqsadli GPU hisoblashlari (GPGPU), ya'ni Nvidia CUDA tehnologiyasi.
3. Chuqur neyron tarmoqlar uchun takomillashtirilgan o'qitish usullari.

O'n yildan ko'proq vaqt o'tgach, uning ahamiyati haqida fikr yuritar ekan, Fei-Fei Li 2024-yildagi intervyusida shunday deydi: "O'sha lahza sun'iy intellekt dunyosi uchun juda ramziy edi, chunki zamonaviy AI'ning uchta asosiy elementi birinchi marta birlashgan". 🥳

@kilich_bek_blog

BY Conor's Blogs







Share with your friend now:
tg-me.com/Conordevs_Blogs/332

View MORE
Open in Telegram


Conor& 39;s Blogs Telegram | DID YOU KNOW?

Date: |

The Singapore stock market has alternated between positive and negative finishes through the last five trading days since the end of the two-day winning streak in which it had added more than a dozen points or 0.4 percent. The Straits Times Index now sits just above the 3,060-point plateau and it's likely to see a narrow trading range on Monday.

Should You Buy Bitcoin?

In general, many financial experts support their clients’ desire to buy cryptocurrency, but they don’t recommend it unless clients express interest. “The biggest concern for us is if someone wants to invest in crypto and the investment they choose doesn’t do well, and then all of a sudden they can’t send their kids to college,” says Ian Harvey, a certified financial planner (CFP) in New York City. “Then it wasn’t worth the risk.” The speculative nature of cryptocurrency leads some planners to recommend it for clients’ “side” investments. “Some call it a Vegas account,” says Scott Hammel, a CFP in Dallas. “Let’s keep this away from our real long-term perspective, make sure it doesn’t become too large a portion of your portfolio.” In a very real sense, Bitcoin is like a single stock, and advisors wouldn’t recommend putting a sizable part of your portfolio into any one company. At most, planners suggest putting no more than 1% to 10% into Bitcoin if you’re passionate about it. “If it was one stock, you would never allocate any significant portion of your portfolio to it,” Hammel says.

Conor& 39;s Blogs from jp


Telegram Conor's Blogs
FROM USA